Etude > Santé > La maternité
Le droit au travail a été accordé aux femmes au milieu des années soixante. Depuis, la place des femmes sur le marché du travail n’a cessé d’augmenter jusqu’à devenir prédominant dans certaines professions.
Afin de prendre en compte l’évolution de notre société, et afin de concourir à obtenir une égalité réelle entre les hommes et les femmes sur le marché du travail différentes mesures ont été prises en ce sens.